Covid-19大流行是人类的祸害,宣称全世界超过500万人的生活。虽然疫苗正在全世界分布,但表观需要实惠的筛选技术,以便为无法获得传统医学的世界服务。人工智能可以提供利用咳嗽声音作为主要筛选模式的解决方案。本文介绍了多种模型,这些模型在学术文献目前呈现的最大评估数据集上取得了相对尊敬的性能。此外,我们还显示性能随着培训数据规模而增加,表明世界各地的数据收集,以帮助使用非传统方式对抗Covid-19大流行。
translated by 谷歌翻译
资源描述框架(RDF)是用于描述元数据的框架,例如网络上资源的属性和关系。 RDF图形的机器学习任务采用三种方法:(i)支持向量机(SVM)与RDF图形内核,(ii)RDF图嵌入,和(iii)关系图卷积网络。在本文中,我们提出了一种新颖的特征向量(称为跳过向量),其通过提取相邻边缘和节点的各种组合来表示RDF图中的每个资源的一些特征。为了使跳过向量低维,我们基于每个特征的信息增益比选择分类任务的重要特征。可以通过将每个资源的低维跳过向量应用于传统的机器学习算法,例如SVMS,K最近邻居方法,神经网络,随机林和Adaboost来执行分类任务。在我们的RDF数据的评估实验中,如Wikidata,DBPedia和Yago,我们将我们的方法与SVM中的RDF图形内核进行比较。我们还将我们的方法与两种方法进行了比较:RDF图形嵌入式,如RDF2VEC和AIFB,娇象,BGS和AM基准测试的RDF2VEC和关系图卷积网络。
translated by 谷歌翻译
深度加固学习在各种类型的游戏中使人类水平甚至超级人类性能。然而,学习所需的探测量通常很大。深度加强学习也具有超级性能,因为没有人类能够实现这种探索。为了解决这个问题,我们专注于\ Textit {Saspicing}策略,这是一种与现有优化算法的定性不同的方法。因此,我们提出了线性RS(LINR),其是一种令人满意的算法和风险敏感的满足(RS)的线性扩展,用于应用于更广泛的任务。 RS的概括提供了一种算法,可以通过采用现有优化算法的不同方法来减少探索性操作的体积。 Linrs利用线性回归和多字符分类来线性地近似于RS计算所需的动作选择的动作值和比例。我们的实验结果表明,与上下文强盗问题中的现有算法相比,Linrs减少了探索和运行时间的数量。这些结果表明,满足算法的进一步概括对于复杂的环境可能是有用的,包括要用深增强学习处理的环境。
translated by 谷歌翻译
在对比的表示学习中,训练数据表示,使得即使在通过增强的图像改变时,它也可以对图像实例进行分类。然而,根据数据集,一些增强可以损坏超出识别的图像的信息,并且这种增强可以导致折叠表示。我们通过将随机编码过程正式化,其中通过增强的数据损坏与由编码器保留的信息之间存在脱疣,对该问题提出了部分解决方案。我们展示了基于此框架的InfoMax目标,我们可以学习增强的数据依赖分布,以避免表示的崩溃。
translated by 谷歌翻译
The task we consider is portfolio construction in a speculative market, a fundamental problem in modern finance. While various empirical works now exist to explore deep learning in finance, the theory side is almost non-existent. In this work, we focus on developing a theoretical framework for understanding the use of data augmentation for deep-learning-based approaches to quantitative finance. The proposed theory clarifies the role and necessity of data augmentation for finance; moreover, our theory implies that a simple algorithm of injecting a random noise of strength $\sqrt{|r_{t-1}|}$ to the observed return $r_{t}$ is better than not injecting any noise and a few other financially irrelevant data augmentation techniques.
translated by 谷歌翻译
在许多实际控制应用中,由于植物特征的变化,闭环系统的性能水平随着时间而变化。因此,在不经过系统建模过程的情况下,非常需要重新设计控制器,这对于闭环系统通常很难。强化学习(RL)是一种有前途的方法之一,仅基于闭环系统的测量,可以为非线性动力学系统提供最佳控制器的无模型重新设计。但是,RL的学习过程需要使用可能会在植物上累积磨损的控制系统不良的系统进行大量试验实验。为了克服这一限制,我们提出了一种无模型的两步设计方法,该方法在未知非线性系统的最佳调节器重新设计问题中提高了RL的瞬态学习性能。具体而言,我们首先设计了一种线性控制定律,该法律以无模型的方式达到一定程度的控制性能,然后通过并行使用设计的线性控制法来训练非线性最佳控制法。我们引入了一种线性控制定律设计的离线RL算法,并理论上保证了其在轻度假设下与LQR控制器的收敛性。数值模拟表明,所提出的方法可以提高RL的超参数调整中的瞬态学习性能和效率。
translated by 谷歌翻译